OpenAI дава първи поглед върху Sora, AI инструмент, който създава видео само от ред текст
Компанията зад ChatGPT сподели, че моделът на Sora схваща по какъв начин обектите „ съществуват във физическия свят “ и може „ тъкмо да пояснява реквизити и генерира завладяващи герои, които показват живи страсти ".
В образци, оповестени на уеб страницата им, OpenAI сподели редица видеоклипове, генерирани от Sora " без трансформация ". Един клип акцентира фотореалистична жена, която върви по дъждовна улица в Токио.
Подсказванията включват, че тя „ крачи решително и повърхностно “, че „ улицата е влажна и отразяваща, създавайки огледален резултат на цветните светлини, “ и че „ доста пешеходци се разхождат в близост “.
Друго, с подканата „ няколко великански вълнести мамута се доближават, газейки през заснежена поляна “, сподели изчезналите животни покрай планинска верига, изпращащи прахообразен сняг, до момента в който вървят.
Едно видео, генерирано от AI, също демонстрира далматинец, който се разхожда по первазите на прозореца в Бурано, Италия, до момента в който различен води фена на „ обиколка на художествена изложба с доста красиви творби на изкуството в разнообразни стилове “.
Изображение: Друго видео демонстрира далмат на перваза на прозореца в живописното Бурано, Италия. Снимка: Сора Изображение: Обиколка на изложба предлага бърз взор към няколко творби на изкуството. Снимка: Sora
Загриженост за авторските права и поверителността
Но най-новият инструмент беше посрещнат със песимизъм и угриженост, че може да бъде злоупотребен.
Рейчъл Тобак, която е член на техническия консултант съвет на Агенцията за киберсигурност и сигурност на инфраструктурата (CISA) на Съединени американски щати, разгласява на X, че „ би трябвало да обсъдим рисковете “ на модела AI.
„ Най-голямата ми угриженост е по какъв начин това наличие може да бъде употребявано за машинация, манипулират, фишират и объркват необятната общност “, сподели тя.
Липса на бистрота
Други също означиха угриженост по отношение на авторските права и поверителността, с основния изпълнителен шеф на компания с нестопанска цел за AI Доста подготвен Ед Нютън-Рекс прибавя: „ Просто не можете да спорите, че тези модели не се конкурират или няма да се конкурират със наличието, върху което са подготвени, и с човешките основатели зад това наличие.
„ Какво на модела квалифициран ли е? Доставчиците на данни за образование са дали единодушие работата им да бъде употребена? Пълната липса на информация от OpenAI за това не вдъхва доверие. "
Прочетете още:
Фалшивият AI, генериран от Байдън, споделя на хората да не гласоподават
Садик Хан: Deepfake съвсем провокира „ съществено разстройство “
OpenAI сподели в обява в блог, че се ангажира с актьори, политици и други, с цел да подсигурява сигурността, преди да пусне новия инструмент на обществеността.
„ Ние работим с червени екипи – специалисти по домейни в области като дезинформация, насаждащо ненавист наличие и пристрастия – които ще тестват конкурентно модела “, споделиха от компанията.
„ Ние също построяваме принадлежности, които да оказват помощ за откриването на подвеждащо наличие като като класификатор за разкриване, който може да разбере по кое време видеото е генерирано от Sora. "
Изображение: Обиколка на изложба предлага бърз взор върху няколко творби на изкуството. Снимка: Sora
OpenAI " не може да планува " потреблението на Sora
Въпреки това компанията призна, че макар задълбочените проучвания и проби, „ не можем да предвидим всички потребни способи, по които хората ще употребяват нашата технология, нито всички способи, по които хората ще злоупотребяват с нея “.
„ Ето за какво имаме вяра, че ученето от използването в действителния свят е сериозен съставен елемент за основаването и стартирането на все по-безопасни AI системи с течение на времето “, прибавиха те.
в края на предходната година поради обвиняванията и най-големият вложител Microsoft, употребява нелегално публикациите на вестника, с цел да образова и основава.
Искът твърди, че текстовият модел на AI в този момент се конкурира с вестника като източник на надеждна информация и заплашва способността на организацията да дава такава услуга.
На Свети Валентин OpenAI също по този начин показа, че е прекратил сметките на пет държавни групи, които са употребявали огромните езикови модели на компанията, с цел да положат основите за хакерски акции.
Те споделиха, че групите за опасност - свързани с Русия, Иран, Северна Корея и Китай - са употребявали инструментите на компанията за задания за хакване на прекурсори, като поръчки с отворен код, превод, търсене на неточности в код и осъществяване на съществени задания за шифроване.